cover
Contact Name
Ricky Firmansyah
Contact Email
ricky.rym@bsi.ac.id
Phone
+6281318340588
Journal Mail Official
jurnal.informatika@bsi.ac.id
Editorial Address
Jl. Kramat Raya No.98, Kwitang, Kec. Senen, Kota Jakarta Pusat, DKI Jakarta 10450
Location
Kota adm. jakarta barat,
Dki jakarta
INDONESIA
Jurnal Informatika
ISSN : 23556579     EISSN : 25282247     DOI : https://doi.org/10.31294/ji.v4i2
Core Subject : Science,
Jurnal Informatika respects all researchers Technology and Information field as a part spirit of disseminating science resulting and community service that provides download journal articles for free, both nationally and internationally. The editorial welcomes innovative manuscripts from Technology and Information field. The scopes of this journal are: Expert System Decision Support System Data Mining Artificial Intelligence System Machine Learning Genetic Algorithms Business Intelligence and Knowledge Management Big Data the manuscripts have primary citations and have never been published online or in print. Every manuscript will be checked the plagiarism using Turnitin software. If the manuscript indicated major plagiarism, the manuscript is rejected.
Articles 12 Documents
Search results for , issue "Vol 10, No 1 (2023): April 2023" : 12 Documents clear
Sistem Pakar Diagnosa Penyakit Kulit Kucing Dengan Metode Dempster Shafer Khusnul Arifin; Anti Nada Nafisa; Erika Nia Devina Br Purba; Nurul Adawiyah Putri; Kana Saputra S; Debi Yandra Niska
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.14488

Abstract

Kucing merupakan salah satu hewan yang banyak dipelihara oleh masyarakat. Penyakit kulit pada kucing seringkali membuat pemiliknya merasa bingung dan terkendala dalam diagnosa penyakit kulit pada kucing yang dipelihara. Butuh perawatan lebih untuk menjaga kesehatan kulit kucing dan perlunya pemahaman bagi pemilik kucing untuk mengetahui cara menangani apabila kucing terserang penyakit kulit. Dengan adanya sistem pakar dapat diketahui penyakit kulit apa yang sedang dialami oleh kucing tersebut dan dapat memberikan solusi. Metode dempster shafer memiliki kemampuan dalam memberikan tingkat keakuratan yang tinggi, dimana metode ini mampu berpikir layaknya seorang pakar, namun dengan menggunakan perhitungan melalui gejala yang memiliki nilai densitas. Sistem pakar diagnosa penyakit kulit kucing dengan metode dempster shafer berbasis web dapat mempermudah bagi pemilik kucing dalam mencari informasi jenis penyakit kulit pada kucing, juga dapat mendiagnosa penyakit dan memberikan solusi dari penyakit kulit tersebut. Hasil akurasi yang diperoleh dari perhitungan manual sebesar 90% dan hasil akurasi yang diperoleh dari sistem sebesar 83%. Kata Kunci: Sistem Pakar, Kulit Kucing, Dempster Shafer
Analisis Data Mining Menggunakan Metode Algoritma C4.5 Menentukan Penerima Bantuan Langsung Tunai Lukman Bachtiar; Mahradianur Mahradianur
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.15115

Abstract

Bantuan Langsung Tunai (BLT) adalah bantuan yang dibuat oleh pemerintah untuk orang atau keluarga yang kurang mampu dan rentan akan kemiskinan dengan mereka yang memenuhi persyaratan yang ada pada program. Tujuan peneltian ini untuk memberikan masukkan tentang menentukan apakah keluarga tersebut masih berhak menerima atau tidak berhak menerima bantuan BLT, dimana masih ada keluarga yang berhak menerima dan memenuhi syarat dari program bantuan pemerintahan ini. Sumber data yang diperoleh dapat dari Kantor Desa Regei Lestari. Metode yang dipakai pada penelitian merupakan teknik data mining dengan algoritma C4.5 yang diterapkan pada software RapidMiner. Atribut yang dipakai untuk menentukan keluarga yang berhak menerima dan tidak berhak menerima pada program bantuan BLT yaitu Penghasilan, Status, Pekerjaan, Umur. Direct cash assistance (BLT) is assistance provided by the government for underprivileged and vulnerable people or families with those who meet the requirements of the program. The purpose of this research is to provide input on determining whether the family is still entitled to receive or not entitled to receive BLT assistance, where there are still families who are entitled to receive and meet the requirements of this government assistance program. The source of the data obtained can be from the Regei Lestari Village Office. The method used in this study is a data mining technique with the C4.5 algorithm applied to the RapidMiner software. The attributes used to determine families who are entitled to receive and who are not entitled to receive the BLT assistance program are Income, Status, Occupation, Age. The results of data classification using the C4.5 algorithm method and testing with RapidMiner are If Occupation = farmhand then the result is accepting with a value of 16 items from accepting and 0 not accepting, then the determining factor is obtained who is entitled to receive and who is not entitled to receive assistance direct cash (BLT).
Random Forest Dengan Random Search Terhadap Ketidakseimbangan Kelas Pada Prediksi Gagal Jantung Muhammad Ali Abubakar; Muliadi Muliadi; Andi Farmadi; Rudy Herteno; Rahmat Ramadhani
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.14531

Abstract

Prediksi keberlangsungan hidup pasien gagal jantung telah dilakukan pada penelitian untuk mencari tahu tentang kinerja, akurasi, presisi dan performa dari model prediksi ataupun metode yang digunakan dalam penelitian, dengan menggunakan dataset heart failure clinical records. Namun dataset ini memiliki permasalahan yaitu bersifat tidak seimbang yang dapat menurunkan kinerja model prediksi karena cenderung menghasilkan prediksi kelas mayoritas. Pada penelitian ini menggunakan pendekatan level algoritma untuk mengatasi ketidakseimbangan kelas yaitu teknik bagging dengan metode Random Forest lalu digabungkan dengan metode Hyper-Parameter Tuning agar kinerja yang dihasilkan menjadi lebih baik. Selanjutnya model dilatih dengan dataset dan dibandingkan dengan metode lain, hasilnya menunjukkan bahwa Random Forest dengan Random Search Hyper Parameter-Tuning mencapai nilai AUC sebesar 0,906 dan untuk model Random Forest tanpa Random Search memperoleh nilai AUC sebesar 0,866. Prediction of the survival of heart failure patients has been carried out in research to find out about the performance, accuracy, precision and performance of the prediction model or method used in the study, using the heart failure clinical records dataset. However, this dataset has a problem, namely being unbalanced which can reduce the performance of the prediction model because it tends to produce predictions for the majority class. This study uses an algorithm level approach to overcome class imbalance, namely the bagging technique with the Random Forest method and then combined with the Hyper-Parameter Tuning method so that the resulting performance is better. Then the model was trained with the dataset and compared with other methods, the results showed that the Random Forest with Random Search Hyper Parameter-Tuning achieved an AUC value of 0,906 and for the Random Forest model without Random Search the AUC value of 0,866 was obtained. 
Sistem Pendukung Keputusan Pengamatan Keselamatan Kerja Digital Megandi Megandi; Meredita Susanty
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.12778

Abstract

Piramida Kecelakaan Kerja atau dikenal juga dengan Heinrich's triangle atau Bird's triangle menyatakan bahwa kecelakaan kerja datal ditimbulkan karena beberapa kejadian-kejadian kecelakaan lain yang lebih ringan yang terjadi sebelumnya. Teori Piramida keselamatan kerja ini memungkinkan individu untuk mempersempit akar penyebab dan menghilangkan atau mengendalikan bahaya atau penyebabnya. Perusahaan-perusahaan yang kegiatan usahanya memiliki risiko kerja tinggi mengadopsi teori piramida keselamatan kerja ini untuk mengendalikan dan mengeliminasi bahaya dan atau penyebab bahaya yang salah satunya diimplementasikan menggunakan pelaporan pengamatan keselamatan. Dalam hal ini, yang diamati adalah kondisi dan tindakan tidak aman dalam menjalankan pekerjaan sehari-hari. Dalam implementasinya kebanyakan perusahaan melakukan hal ini secara manual dimana setiap pekerja wajib mengisi formulir pengamatan keselamatan setiap bulannya. Data pengamatan ini kemudian direkap setiap bulannya untuk ditindak lanjuti dan dilaporkan kepada pihak manajemen. Praktik pelaporan yang dilakukan secara  manual ini dapat dibuat menjadi lebih efisien menggunakan bantuan teknologi. Dengan memindahkan pencatatan dari formulir fisik menjadi halaman web atau aplikasi mobile, data pengamatan keselamatan dapat langsung tersimpan pada sistem secara real time. Rekapitulasi dan laporan juga dapat langsung dihasilkan oleh aplikasi sesuai dengan proses yang berjalan saat ini. Dengan melakukan digitalisasi proses ini, perusahaan diharapkan dapat melakukan efisiensi biaya yang selama ini digunakan untuk mencetak formulir pengamatan dan laporan bulanan juga efisiensi waktu yang selama ini digunakan oleh staf untuk merekap data pengamatan dan menyusun laporan bulanan. Waktu yang selama ini digunakan untuk melakukan pekerjaan operasional dapat digunakan untuk mengerjakan pekerjaan lain yang lebih strategis. The Accident Pyramid, also known as Heinrich's triangle or Bird's triangle, states that several previous, lighter accidents lead to a fatal accident. This work safety pyramid theory allows individuals to narrow down the root causes and eliminate or control the hazard or cause. The companies with high-risk main business activities adopt this theory to control and eliminate hazards and/or causes of hazards. One of the methods is using safety observation reporting, observing unsafe conditions and actions in daily work. Some companies require each worker to observe several unsafe acts or conditions and then report them by filling out a safety observation form every month. This observational data is then categorized and recapitulated every month. Some reports need a follow-up action to eliminate the risk. All observations and their follow-up action are then reported to the management. This manual reporting procedure can be made more efficient with the help of technology. By transferring the recording process from physical forms to web pages or mobile applications, safety observation data can be stored directly on the system in real-time. The application can automatically generate recapitulation and reports based on the existing business process. Hence, the company gain cost and time efficiencies. It removes printing costs for observation forms and monthly reports. It also saves a reasonable time from recapping observation data and compiling monthly reports.
Avoiding Machine Learning Becoming Pseudoscience in Biomedical Research Meredita Susanty; Ira Puspasari; Nilam Fitriah; Dimitri Mahayana; Tati Erawati Latifah Rajab; Hasballah Zakaria; Agung Wahyu Setiawan; Rukman Hertadi
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.12787

Abstract

The use of machine learning harbours the promise of more accurate, unbiased future predictions than human beings on their own can ever be capable of. However, because existing data sets are always utilized, these calculations are extrapolations of the past and serve to reproduce prejudices embedded in the data. In turn, machine learning prediction result raises ethical and moral dilemmas. As mirrors of society, algorithms show the status quo, reinforce errors, and are subject to targeted influences – for good and the bad. This phenomenon makes machine learning viewed as pseudoscience. Besides the limitations, injustices, and oracle-like nature of these technologies, there are also questions about the nature of the opportunities and possibilities they offer. This article aims to discuss whether machine learning in biomedical research falls into pseudoscience based on Popper and Kuhn's perspective and four theories of truth using three study cases. The discussion result explains several conditions that must be fulfilled so that machine learning in biomedical does not fall into pseudoscience
Implementasi Algoritma CNN Untuk Pemilahan Jenis Sampah Berbasis Android Dengan Metode CRISP-DM Sita Alden; Betha Nurina Sari
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.14985

Abstract

Implementasi algoritma Convolutional Neural Network (CNN) untuk memilah jenis sampah berbasis Android dapat membantu masyarakat dalam memilah sampah dengan benar. Aplikasi ini akan menerima masukan berupa foto sampah yang diambil oleh pengguna dan kemudian menggunakan algoritma CNN untuk mengklasifikasikan jenis sampah. Hasil dari klasifikasi kemudian ditampilkan kepada pengguna sehingga dapat mengetahui jenis sampah dengan akurasi yang tepat untuk dibuang ke tempat sampah sesuai jenisnya. Pada pengujian pemilahan sampah organik dan anorganik berhasil dilakukan dengan menggunakan metode Transfer Learning CNN  dengan menerapkan arsitektur Mobile Net. Dataset  sampah yang terkumpul adalah sebanyak 5.428 di train di ML Kit. Precision 97,95% dan recall sebesar 95,18%. Pada pengujian menggunakan Android dengan library tensorflow Lite kulit pisang dapat terdeteksi menghasilkan output  sampah organik dengan akurasi sebesar 96%. Begitupun dengan sampah kardus dapat terdeteksi menghasilkan output  sampah anorganik dengan akurasi sebesar 99%.Implementation of a Convolutional Neural Network (CNN) algorithm for Android-based garbage sorting to help the public sort garbage correctly. The application will accept input in the form of user-taken garbage photos and use the CNN algorithm to classify the type of garbage. The classification results are then shown to the user to help identify the correct type of garbage to dispose of. Testing of organik and inorganik garbage sorting was successfully done using the Transfer Learning CNN method with the Mobile Net architecture. Collected garbage dataset is 5,428 in train in ML Kit, precision is 97.95% and recall is 95.18%. In testing using Android with the tensorflow Lite library, banana peels can be detected with 96% accuracy and cardboard can be detected with 99% accuracy.
Implementasi Algoritma You Only Look Once (YOLO) Untuk Object Detection Sarang Orang Utan Di Taman Nasional Sebangau I Made Dwijaya Maleh; Rony Teguh; Abertun Sagit Sahay; Simon Okta; Muhammad Porkab Pratama
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.13922

Abstract

Hutan gambut di Kalimantan adalah salah satu ekosistem hidrologi penting di dunia yang memainkan peran vital dalam menjaga keseimbangan lingkungan. Hutan ini memfasilitasi siklus air dan membantu mengurangi perubahan iklim dengan menyerap karbon. Beragam spesies tanaman dan hewan unik hidup di hutan gambut dan sangat penting bagi kesehatan lingkungan. Aliran air dari hutan gambut menjadi sumber air bagi pemukiman dan pertanian. Hutan gambut juga berfungsi sebagai penyimpan karbon besar dan dapat menyimpan jumlah karbon setara dengan emisi global selama beberapa tahun. Untuk melindungi hutan gambut sebagai ekosistem hidrologi dan penyerap karbon. Orangutan adalah spesies penting yang harus dilindungi untuk menjamin keanekaragaman hayati di dunia. Keberadaan orangutan adalah indikator lingkungan yang sehat dan membutuhkan habitat alami yang luas dan kaya. Sarang-sarang yang ada di hutan menunjukkan lingkungan masih alami dan bisa memenuhi kebutuhan orangutan. Oleh karena itu, menjaga dan memelihara sarang orangutan sangat penting untuk melestarikan spesies dan ekosistem hutan. Implementasi algoritma YOLO (You Only Look Once) merupakan salah satu upaya untuk mendeteksi sarang orangutan di hutan Kalimantan. Algoritma ini memprediksi kotak pembatas dan probabilitas kelas pada gambar penuh dalam satu tangkapan. Dengan 1970 citra latih dan 414 citra berlabel sarang orangutan, hasil training menunjukkan Precision 0,973, Recall 0.949, mAP_0.5 0.969, dan mAP_0.5:0.95 0.630. Model ini membutuhkan 58 jam untuk menyelesaikan 217 epoch dan menghasilkan akurasi deteksi objek yang tinggi model menunjukkan hasil deteksi jumlah sarang orangutan dengan akurasi rata-rata 99.9%. The peat forest in Kalimantan is one of the world's important hydrological ecosystems that play a vital role in maintaining environmental balance. This forest facilitates the water cycle and helps reduce climate change by absorbing carbon. A variety of unique plant and animal species live in the peat forest and are crucial for environmental health. The water flow from the peat forest becomes a source of water for settlements and agriculture. The peat forest also functions as a large carbon store and can store an amount of carbon equivalent to global emissions for several years. to protect the peat forest as a hydrological ecosystem and carbon absorber. Orangutans are important species that must be protected To ensure biodiversity in the world. The presence of orangutans is a sign of a healthy environment and requires a large and rich natural habitat. Nests found in the forest indicate that the environment is still natural and can meet the needs of orangutans. Therefore, preserving and maintaining orangutan nests is very important for conserving species and forest ecosystems. The implementation of YOLO (You Only Look Once) algorithm is one effort to detect orangutan nests in the Kalimantan forest. This algorithm predicts the bounding box and class probability on a full image in one shot. With 1970 training images and 414 labeled orangutan nest images, the training results showed Precision 0.973, Recall 0.949, mAP_0.5 0.969, and mAP_0.5:0.95 0.630. The model took 58 hours to complete 217 epochs and produced high object detection accuracy. The model shows results of detecting the number of orangutan nests with an average accuracy of 99.9%.
Prediksi Kinerja Siswa Pada E-Learning Moodle Platform Menggunakan Algoritma Adaptive Boosting Jordy Lasmana Putra; Agus Subekti
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.15525

Abstract

Pandemi Covid-19 yang sudah berlangsung sejak awal tahun 2020 memberikan dampak besar di berbagai sektor, salah satunya di sektor pendidikan, dimana awalnya pendidikan dilakukan secara tatap muka, karena pandemi mengharuskan proses belajar mengajar dilakukan secara dalam jaringan (daring) Teknologi informasi berkembang sangat pesat dan mempengaruhi berbagai bidang, salah satunya bidang pendidikan, yang dimana pembelajaran secara daring sudah menjadi hal yang biasa untuk era saat sekarang ini, salah satu Learning Management System atau yang sering disingkat LMS yang sering digunakan adalah E-Learning menggunakan platform moodle, ditambah untuk saat pandemic covid-19 proses pembelajaran diarahkan ke sistem daring, sehingga penggunaan E-Learning menjadi meningkat. Melihat hal tersebut penulis bermaksud untuk melakukan penelitian untuk melakukan prediksi terhadap kinerja siswa dalam mengikuti perkuliahan e-learning yang menggunakan moodle platform, penelitian ini melihat dari sisi log activity siswa di moodle platform lalu log tersebut di transformasi agar dapat dilakukan proses klasifikasi oleh algoritma machine learning. Pada penelitian ini penulis melakukan klasifikasi menggunakan algoritma Adaptive Boosting dengan Base Learner C4.5 dengan teknik pra pemrosesan data Resample untuk Imbalance data. Hasil dari penelitian ini didapatkan hasil performansi yang baik, dengan nilai Akurasi 95%, ROC 0.97, dan Kappa 0.90. sehingga penelitian ini dapat menjadi model untuk memprediksi kinerja siswa dengan melihat log aktivitasnya menggunakan platform moodle. The Covid-19 pandemic, which has been going on since the beginning of 2020, has had a major impact in various sectors, one of which is in the education sector, where initially education was carried out face-to-face, because the pandemic requires the teaching and learning process to be carried out online Information technology is developing very rapidly and affecting various fields, one of which is the field of education, where online learning has become commonplace for today's era,  one of the Learning Management Systems or often abbreviated as LMS that is often used is E-Learning using the moodle platform, plus during the Covid-19 pandemic the learning process is directed to an online system, so that the use of E-Learning becomes increasing. Seeing this, the author intends to conduct research to predict student performance in participating in e-learning lectures using the moodle platform, this study looks at the student activity log on the moodle platform and then the log is transformed so that the classification process can be carried out by machine learning algorithms. In this study, the authors classified using the Adaptive Boosting algorithm with Base Learner C4.5 with the Resample data preprocessing technique for data imbalance. The results of this study obtained good performance results, with an Accuracy value of 95%, ROC 0.97, and Kappa 0.90. So this study can be a model to predict student performance by looking at their activity logs using the Moodle platform.
Sentiment Analysis Terhadap Perspektif Warganet Atas Tragedi Kanjuruhan Malang di Twitter Menggunakan Naïve Bayes Classifier Minardi Minardi; Ranita Lasepa; Santoso Riyadi; Syahrur Ramadhan; Dedi Dwi Saputra
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.14546

Abstract

Media sosial Twitter adalah salah satu tempat bagi warganet dari seluruh dunia untuk menyampaikan perspektif mereka, sebuah insiden yang terjadi di Stadion Kanjuruhan Malang pada tanggal 01 Oktober 2022 sedang hangat diperbincangkan, sehingga memunculkan berbagai perspektif yang memicu timbulnya pro-kontra di masyarakat. Atas dasar itu untuk mengklasifikasikan perspektif positif atau negatif warganet di Twitter, maka dilakukan analisis sentimen menggunakan Naïve Bayes Classifier. Analisis sentimen dilakukan dengan mengambil tweet warganet di Twitter dengan hashtag UsutTuntasTragediKanjuruhan yang diambil 1.500 tweet untuk dijadikan dataset. Preprocessing data terdiri dari Annotation Removal, Remove Hashtag, Transformation Remove Url, Regexp, Indonesian Steaming, Indonesian Stopword Removal. Hasil analisis berjalan dengan baik dengan nilai akurasi 77,67%, kemudian nilai precision sebesar 77,19%, nilai recall sebesar 78,50%, dan nilai AUC 0.820 (good classification). The social media site Twitter is a place where Internet users around the world can exchange perspectives on current discussions. One of them is football; this sport is a hobby that is loved by all corners of the world, including the people of Malang. With their love for this sport, they call themselves Aremania, namely Arema Malang team supporters, but a dark incident occurred. The Kanjuruhan at Malang Stadium on January 10, 2022, raised different views from all Twitter user accounts, which led to an increase in tweets and became a trending topic at that time. To develop different perspectives based on what brings advantages and disadvantages to the community, a procedure was applied to classify Twitter users' positive or negative perspectives through sentiment analysis with the Nave Bayes classifier. Sentiment analysis was carried out by indexing Twitter user tweets with the hashtag "UsutTuntasTragediKanjuruhan," crawling data from 1,500 existing tweets as a dataset, after which the data to be processed is identified. (labeling) for the next step, namely stage Data preprocessing includes annotation removal, hashtag removal, URL removal, regexp, Indonesian steaming, and Indonesian stopword removal, as well as operators' smote upsampling. Making a confusion matrix that shows the final result of the analysis is going well, namely the value accuracy of 77.67%, the value precision of 77.19%, the value recall of 78.50%, and the value AUC of 0.820 (good classification).
Implementasi Algoritma Levenshtein Distance Untuk Misspelled Word Pada Pencarian Lagu Melayu Marcel Rino Batisya; Klaudius Jevanda BS
Jurnal Informatika Vol 10, No 1 (2023): April 2023
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.31294/inf.v10i1.15208

Abstract

Saat ini, banyak orang tidak bisa hidup tanpa musik. Musik merupakan bagian yang sangat berguna bagi kehidupan manusia untuk bersantai, menghilangkan stres, ataupun mengubah suasana hati. Musik sangat mudah ditemukan di banyak website saat ini. Namun orang-orang yang menyukai musik terkadang lupa atau salah paham dengan judul lagu yang sering didengarkan dan dinyanyikan khususnya lagu melayu di berbagai website. Sehingga membuat kesulitan untuk mencari judul lagu melayu yang diinginkan, dikarena website tidak dapat menginformasikan ejaan kata yang dimaksud sesuai dengan arti judul lagu. Maka dari itu, penulis membuat aplikasi pencarian lagu melayu terkhusus karya Arif Putra berbasis website dengan menggunakan algoritma Levenshtein Distance. Algoritma ini digunakan untuk memperbaiki kesalahan ejaan judul lagu, baik karena kecepatan mengetik ataupun typo dari user. Levenshtein Distance menghitung jumlah minimum dari operasi perubahan paling sedikit yang diperlukan untuk mengubah satu string menjadi string lainnya. Operasi perubahan tersebut adalah penyisipan, penghapusan, dan pertukaran. Hasil penelitian menunjukkan penerapan algoritma Levenshtein Distance dapat memperbaiki pencarian judul lagu yang memiliki kesalahan ejaan kata. Sedangkan dari hasil responden berjumlah 85 orang menyatakan 23,53% sangat setuju dan 60% setuju bahwa algoritma Levenshtein Distance yang diterapkan dapat meminimalisir kesalahan ejaan pada pencarian lagu melayu karya Arif Putra.Today, many people cannot live without music. Music is a very useful part of human life to relax, relieve stress, or change mood. Music is very easy to find on many websites today. However, people who like music sometimes forget or misunderstand the title of the song that is often heard and sung, especially Malay songs, on various websites. So that makes it difficult to find the desired Malay song title, because the website cannot inform the spelling of the word in question according to the meaning of the song title. Therefore, the author created a web-based search application for Malay songs, especially Arif Putra's works, using the Levenshtein Distance algorithm. This algorithm is used to correct spelling mistakes in song titles, either due to typing speed or typos from users. Levenshtein Distance calculates the minimum number of change operations required to convert one string into another. The change operations are insert, delete, and exchange. The results showed that the application of the Levenshtein Distance algorithm can improve the search for song titles that have spelling errors. Meanwhile, from the results of the respondents, there were 85 people who stated that 23.53% strongly agreed and 60% agreed that the Levenshtein Distance algorithm applied could minimize spelling errors in searching Malay songs by Arif Putra.

Page 1 of 2 | Total Record : 12